Come le voci più forti dell'intelligenza artificiale sono passate da "Regolamentateci" a "Liberateci"

Il 16 maggio 2023, Sam Altman è comparso davanti a una sottocommissione della Giustizia del Senato. Il titolo dell'udienza era "Supervisione dell'IA". La sessione è stata un tripudio di entusiasmo, con Altman e i senatori che hanno celebrato quello che Altman ha definito il "momento della stampa" dell'IA e hanno riconosciuto che gli Stati Uniti avevano bisogno di leggi severe per evitarne le insidie. "Riteniamo che l'intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti", ha affermato. I legislatori pendevano dalle labbra di Altman, mentre si entusiasmava su come leggi intelligenti potessero permettere all'IA di prosperare, ma solo entro linee guida rigide che sia i legislatori che i costruttori di IA ritenevano vitali in quel momento. Altman parlava a nome del settore, che condivideva ampiamente il suo atteggiamento. Il grido di battaglia era "Regolamentateci!".
Due anni dopo, l'8 maggio di quest'anno, Altman si è ritrovato davanti a un altro gruppo di senatori. I senatori e Altman cantavano ancora la stessa canzone, ma da una playlist diversa. L'udienza si intitolava "Vincere la corsa all'IA". A Washington, il termine "supervisione" è caduto in disuso, e il dibattito sull'IA non fa eccezione. Invece di sostenere che organismi esterni esaminino i modelli di IA per valutarne i rischi, o che le piattaforme avvisino le persone quando interagiscono con l'IA, il presidente della commissione Ted Cruz ha sostenuto un percorso in cui il governo non solo avrebbe alimentato l'innovazione, ma avrebbe anche rimosso barriere come la "sovraregolamentazione". Altman era d'accordo. Il suo messaggio non era più "regolamentatemi", ma "investite in me". Ha affermato che la sovraregolamentazione – come le norme adottate dall'Unione Europea o un disegno di legge recentemente posto sotto veto in California – sarebbe stata "disastrosa". "Abbiamo bisogno di spazio per innovare e muoverci rapidamente", ha affermato. I guardrail di sicurezza potrebbero essere necessari, ha affermato, ma devono prevedere "una regolamentazione sensata che non ci rallenti".
Cos'è successo? Innanzitutto, il momento di panico subito dopo che tutti si erano spaventati per ChatGPT è passato, ed è diventato chiaro che il Congresso non avrebbe preso provvedimenti rapidi sull'IA. Ma lo sviluppo più importante è che Donald Trump ha ripreso la Casa Bianca e ha frenato il tono sfumato e pro-regolamentazione dell'amministrazione Biden. La dottrina di Trump sulla regolamentazione dell'IA sembra sospettosamente vicina a quella del sostenitore di Trump Marc Andreessen, che ha dichiarato nel suo Manifesto Techno Optimist che la regolamentazione dell'IA era letteralmente una forma di omicidio perché "qualsiasi decelerazione dell'IA costerà vite umane". Il vicepresidente JD Vance ha esplicitato queste priorità in un incontro internazionale tenutosi a Parigi lo scorso febbraio. "Non sono qui... per parlare di sicurezza dell'IA, che era il titolo della conferenza di un paio di anni fa", ha affermato. "Riteniamo che un'eccessiva regolamentazione del settore dell'IA potrebbe uccidere un settore in trasformazione proprio mentre sta decollando, e faremo ogni sforzo per incoraggiare politiche di IA a favore della crescita". Successivamente, l'amministrazione ha presentato un piano d'azione per l'intelligenza artificiale "per rafforzare la posizione degli Stati Uniti come potenza dell'intelligenza artificiale e impedire che requisiti inutilmente gravosi ostacolino l'innovazione del settore privato".
In questo movimento sono emersi due nemici. Il primo è l'Unione Europea, che ha adottato un regime normativo che esige trasparenza e responsabilità dalle principali aziende di intelligenza artificiale. La Casa Bianca disprezza questo approccio, così come coloro che creano aziende di intelligenza artificiale negli Stati Uniti.
Ma il più grande spauracchio è la Cina. La prospettiva che la Repubblica Popolare sconfigga gli Stati Uniti nella "corsa all'intelligenza artificiale" è così impensabile che la regolamentazione deve essere messa da parte, o fatta con quello che sia Altman che Cruz hanno descritto come un "tocco leggero". Parte di questo ragionamento deriva da una teoria nota come "decollo duro", che postula che i modelli di intelligenza artificiale possano raggiungere un punto di svolta in cui un miglioramento di sé fulmineo innesca un vortice vertiginoso di supercapacità, noto anche come AGI. "Se arrivi prima, vile, non sarò in grado di raggiungerti", afferma l'ex CEO di Google Eric Schmidt , dove "tu" è un concorrente (Schmidt aveva parlato dello status della Cina come leader nell'open source). Schmidt è una delle voci più forti che mettono in guardia da questo possibile futuro. Ma la Casa Bianca è probabilmente meno interessata alla Singolarità che alla classica competizione economica.
Il timore che la Cina prenda il sopravvento sull'intelligenza artificiale è il motore principale dell'attuale politica statunitense, a dispetto della sicurezza. La linea del partito si oppone persino al tentativo dei singoli stati di colmare il vuoto di inazione con leggi proprie. La versione del mega-disegno di legge per le agevolazioni fiscali e i tagli al Medicaid appena approvata dalla Camera includeva una moratoria obbligatoria su qualsiasi legislazione statale in materia di intelligenza artificiale per 10 anni . È come un'eternità in termini di progresso nell'intelligenza artificiale. (Gli esperti sostengono che questa disposizione non sopravvivrà a una certa opposizione al Senato, ma va notato che quasi tutti i repubblicani alla Camera l'hanno votata a favore.)
Non sorprende che il mondo di Trump rifiuti la regolamentazione e abbracci una posizione sciovinista sull'IA. Ma che fine ha fatto l'apparentemente genuino desiderio del settore di regole che garantiscano che i prodotti di IA non vadano fuori controllo? Questa settimana ho contattato diverse delle principali aziende di IA e mi sono stati indicati blog pubblicati e trascrizioni di discorsi e testimonianze pubbliche, ma nessun dirigente ha voluto rilasciare dichiarazioni ufficiali sull'argomento. (A dire il vero, non ho dato loro molto tempo.)
Tipico di questi materiali era il blog politico di OpenAI. Chiede "libertà di innovare", il che significa, con ogni probabilità, niente leggi gravose; rigidi controlli sulle esportazioni; e una richiesta opportunistica di "libertà di apprendere". Questa è una richiesta eufemistica al Congresso di ridefinire la proprietà intellettuale come "uso corretto", in modo che OpenAI e altre aziende possano addestrare i propri modelli con materiali protetti da copyright, senza dover compensare i creatori. Anche Microsoft sta chiedendo questa manna. (Nota: faccio parte del consiglio dell'Authors Guild, che ha intentato causa contro OpenAI e Microsoft per l'uso di libri protetti da copyright come materiali didattici. Le opinioni espresse qui sono mie.)
Il fronte della regolamentazione "leggera" (o "no touch") ha un'ottima osservazione da fare: nessuno sa con certezza come elaborare leggi che prevengano i peggiori pericoli dell'IA senza rallentare il ritmo dell'innovazione. Ma oltre a evitare rischi catastrofici, ci sono molti altri ambiti in cui la regolamentazione dell'IA non introdurrebbe ostacoli alla ricerca. Tra questi, il divieto di alcuni tipi di sorveglianza tramite IA, deepfake e discriminazione; l'obbligo di informare chiaramente le persone quando interagiscono con i robot; e l'imposizione di standard più elevati per la protezione dei dati personali nei sistemi di IA. (Ammetto di aver barato nel compilare quella lista, non usando ChatGPT, ma facendo riferimento ai tipi di danni causati dall'IA che la Camera dei Rappresentanti non permetterebbe agli stati di regolamentare).
La pressione pubblica, o qualche esempio spettacolare di abuso, potrebbe indurre il Congresso ad affrontare a un certo punto le questioni relative all'IA. Ma ciò che mi rimane impresso è il cambio di rotta di due anni fa, quando le serie preoccupazioni sui rischi catastrofici dominavano le discussioni nel mondo dell'IA. L'eccezione lampante è Anthropic, che non si è ancora mosso da un post sul blog di fine ottobre – pochi giorni prima delle elezioni presidenziali – che non solo sollecitava una regolamentazione efficace per "ridurre i rischi catastrofici", ma proponeva praticamente la fine dei tempi se non l'avessimo fatto al più presto. "I governi dovrebbero intervenire urgentemente sulle politiche in materia di IA nei prossimi diciotto mesi", si leggeva in grassetto. "La finestra per la prevenzione proattiva dei rischi si sta chiudendo rapidamente".
In questo contesto, non c'è praticamente alcuna possibilità che Anthropic realizzi ciò che desidera. Forse non avrà importanza: potrebbe essere che i timori di un'apocalisse dell'IA siano esagerati. Si noti, tuttavia, che i leader di quasi tutte le principali aziende di IA prevedono che tra pochi anni realizzeremo un'intelligenza artificiale generale. Se li si incalza, ammetteranno anche che controllare l'IA, o persino capirne il funzionamento, è un lavoro in corso. Ciononostante, l'attenzione è ora rivolta ad accelerare la spinta verso un'IA più potente, apparentemente per battere la Cina.
I cinesi hanno chiarito di non voler sottostare ai signori dei robot più di quanto lo vogliamo noi. Anche il principale rivale geopolitico degli Stati Uniti ha dimostrato un certo interesse nell'imporre standard di sicurezza rigorosi. Ma se gli Stati Uniti insistono nel rinunciare ai guardrail e nel procedere a tutta velocità verso un futuro che non possono contenere, il nostro principale concorrente non avrà altra scelta che fare lo stesso. Che vinca il decollo più duro e sbrigativo.
wired